机器学习(ML)模型与它们在分子动力学研究中的有用性相反,作为反应屏障搜索的替代潜力,成功的成功有限。这是由于化学空间相关过渡状态区域中训练数据的稀缺性。当前,用于培训小分子系统上的ML模型的可用数据集几乎仅包含在平衡处或附近的配置。在这项工作中,我们介绍了包含960万密度函数理论(DFT)的数据集过渡1X的计算,对WB97X/6-31G(D)理论水平的反应途径上和周围的分子构型的力和能量计算。数据是通过在10K反应上以DFT运行轻度弹性带(NEB)计算而生成的,同时保存中间计算。我们在Transition1x上训练最先进的等效图形消息通讯神经网络模型,并在流行的ANI1X和QM9数据集上进行交叉验证。我们表明,ML模型不能仅通过迄今为止流行的基准数据集进行过渡状态区域的特征。 Transition1x是一种新的具有挑战性的基准,它将为开发下一代ML力场提供一个重要的步骤,该电场也远离平衡配置和反应性系统。
translated by 谷歌翻译
机器学习(ML)模型与它们在分子动力学研究中的有用性相反,作为反应屏障搜索的替代潜力,成功的成功有限。这是由于化学空间相关过渡状态区域中训练数据的稀缺性。当前,用于培训小分子系统上的ML模型的可用数据集几乎仅包含在平衡处或附近的配置。在这项工作中,我们介绍了包含960万密度函数理论(DFT)的数据集过渡1X的计算,对WB97X/6-31G(D)理论水平的反应途径上和周围的分子构型的力和能量计算。数据是通过在10K反应上以DFT运行轻度弹性带(NEB)计算而生成的,同时保存中间计算。我们在Transition1x上训练最先进的等效图形消息通讯神经网络模型,并在流行的ANI1X和QM9数据集上进行交叉验证。我们表明,ML模型不能仅通过迄今为止流行的基准数据集进行过渡状态区域的特征。 Transition1x是一种新的具有挑战性的基准,它将为开发下一代ML力场提供一个重要的步骤,该电场也远离平衡配置和反应性系统。
translated by 谷歌翻译
电子密度$ \ rho(\ vec {r})$是用密度泛函理论(dft)计算地面能量的基本变量。除了总能量之外,$ \ rho(\ vec {r})$分布和$ \ rho(\ vec {r})$的功能通常用于捕获电子规模以功能材料和分子中的关键物理化学现象。方法提供对$ \ rho(\ vec {r})的可紊乱系统,其具有少量计算成本的复杂无序系统可以是对材料相位空间的加快探索朝向具有更好功能的新材料的逆设计的游戏更换者。我们为预测$ \ rho(\ vec {r})$。该模型基于成本图形神经网络,并且在作为消息传递图的一部分的特殊查询点顶点上预测了电子密度,但仅接收消息。该模型在多个数据组中进行测试,分子(QM9),液体乙烯碳酸酯电解质(EC)和Lixniymnzco(1-Y-Z)O 2锂离子电池阴极(NMC)。对于QM9分子,所提出的模型的准确性超过了从DFT获得的$ \ Rho(\ vec {r})$中的典型变异性,以不同的交换相关功能,并显示超出最先进的准确性。混合氧化物(NMC)和电解质(EC)数据集更好的精度甚至更好。线性缩放模型同时探测成千上万点的能力允许计算$ \ Rho(\ vec {r})$的大型复杂系统,比DFT快于允许筛选无序的功能材料。
translated by 谷歌翻译
基于机器学习的数据驱动方法具有加速原子结构的计算分析。在这种情况下,可靠的不确定性估计对于评估对预测和实现决策的信心很重要。然而,机器学习模型可以产生严重校准的不确定性估计,因此仔细检测和处理不确定性至关重要。在这项工作中,我们扩展了一种消息,该消息通过神经网络,专门用于预测分子和材料的性质,具有校准的概率预测分布。本文提出的方法与先前的工作不同,通过考虑统一框架中的炼体和认知的不确定性,并通过重新校准未经证明数据的预测分布。通过计算机实验,我们表明我们的方法导致准确的模型,用于预测两种公共分子基准数据集,QM9和PC9的训练数据分布良好的分子形成能量。该方法提供了一种用于训练和评估神经网络集合模型的一般框架,该模型能够产生具有良好校准的不确定性估计的分子性质的准确预测。
translated by 谷歌翻译
The goal of this paper is to detect objects by exploiting their interrelationships. Rather than relying on predefined and labeled graph structures, we infer a graph prior from object co-occurrence statistics. The key idea of our paper is to model object relations as a function of initial class predictions and co-occurrence priors to generate a graph representation of an image for improved classification and bounding box regression. We additionally learn the object-relation joint distribution via energy based modeling. Sampling from this distribution generates a refined graph representation of the image which in turn produces improved detection performance. Experiments on the Visual Genome and MS-COCO datasets demonstrate our method is detector agnostic, end-to-end trainable, and especially beneficial for rare object classes. What is more, we establish a consistent improvement over object detectors like DETR and Faster-RCNN, as well as state-of-the-art methods modeling object interrelationships.
translated by 谷歌翻译
The 1$^{\text{st}}$ Workshop on Maritime Computer Vision (MaCVi) 2023 focused on maritime computer vision for Unmanned Aerial Vehicles (UAV) and Unmanned Surface Vehicle (USV), and organized several subchallenges in this domain: (i) UAV-based Maritime Object Detection, (ii) UAV-based Maritime Object Tracking, (iii) USV-based Maritime Obstacle Segmentation and (iv) USV-based Maritime Obstacle Detection. The subchallenges were based on the SeaDronesSee and MODS benchmarks. This report summarizes the main findings of the individual subchallenges and introduces a new benchmark, called SeaDronesSee Object Detection v2, which extends the previous benchmark by including more classes and footage. We provide statistical and qualitative analyses, and assess trends in the best-performing methodologies of over 130 submissions. The methods are summarized in the appendix. The datasets, evaluation code and the leaderboard are publicly available at https://seadronessee.cs.uni-tuebingen.de/macvi.
translated by 谷歌翻译
Annotation of multimedia data by humans is time-consuming and costly, while reliable automatic generation of semantic metadata is a major challenge. We propose a framework to extract semantic metadata from automatically generated video captions. As metadata, we consider entities, the entities' properties, relations between entities, and the video category. We employ two state-of-the-art dense video captioning models with masked transformer (MT) and parallel decoding (PVDC) to generate captions for videos of the ActivityNet Captions dataset. Our experiments show that it is possible to extract entities, their properties, relations between entities, and the video category from the generated captions. We observe that the quality of the extracted information is mainly influenced by the quality of the event localization in the video as well as the performance of the event caption generation.
translated by 谷歌翻译
With the rising adoption of Machine Learning across the domains like banking, pharmaceutical, ed-tech, etc, it has become utmost important to adopt responsible AI methods to ensure models are not unfairly discriminating against any group. Given the lack of clean training data, generative adversarial techniques are preferred to generate synthetic data with several state-of-the-art architectures readily available across various domains from unstructured data such as text, images to structured datasets modelling fraud detection and many more. These techniques overcome several challenges such as class imbalance, limited training data, restricted access to data due to privacy issues. Existing work focusing on generating fair data either works for a certain GAN architecture or is very difficult to tune across the GANs. In this paper, we propose a pipeline to generate fairer synthetic data independent of the GAN architecture. The proposed paper utilizes a pre-processing algorithm to identify and remove bias inducing samples. In particular, we claim that while generating synthetic data most GANs amplify bias present in the training data but by removing these bias inducing samples, GANs essentially focuses more on real informative samples. Our experimental evaluation on two open-source datasets demonstrates how the proposed pipeline is generating fair data along with improved performance in some cases.
translated by 谷歌翻译
磁共振成像(MRI)扫描很耗时且不稳定,因为患者长时间仍在狭窄的空间中。为了减少扫描时间,一些专家已经尝试了不足采样的K空间,试图使用深度学习来预测完全采样的结果。这些研究报告说,可以节省多达20到30分钟的时间,这需要一个小时或更长时间。然而,这些研究都没有探索使用掩盖图像建模(MIM)来预测MRI K空间缺失部分的可能性。这项研究利用了11161个从Facebook的FastMRI数据集中重建的MRI和膝关节MRI图像的K空间。这使用基线移位窗口(SWIN)和视觉变压器体系结构测试了现有模型的修改版本,该窗口和视觉变压器体系结构可在未采样的K空间上使用MIM来预测完整的K空间,从而预测完整的MRI图像。使用Pytorch和Numpy库进行修改,并发布到GitHub存储库。模型重建K空间图像后,应用了基本的傅立叶变换来确定实际的MRI图像。一旦模型达到稳定状态,对超参数的实验有助于实现重建图像的精确精度。通过L1丢失,梯度归一化和结构相似性值评估了该模型。该模型产生的重建图像,L1损耗值平均为<0.01,训练完成后梯度归一化值<0.1。重建的K空间对训练和验证的结构相似性值均超过99%,并通过完全采样的K空间进行验证,而验证损失在0.01以下不断减少。这些数据强烈支持算法可用于MRI重建的想法,因为它们表明该模型的重建图像与原始的,完全采样的K空间非常吻合。
translated by 谷歌翻译
野火越来越多地影响环境,人类健康和安全。在加利福尼亚前20名野火中,2020 - 2021年的野火比上世纪的燃烧更大。加利福尼亚的2018年野火季节造成了1485亿美元的损失。在数百万受影响的人中,由于不足的警报手段,残疾人(约占世界人口的15%)受到不成比例的影响。在该项目中,基于先进的机器学习体系结构开发了多模式野火预测和个性化预警系统。从2012年到2018年的环境保护局和历史野火数据的传感器数据已编译,以建立一个全面的野火数据库,即同类最大的数据库。接下来,设计了一种新型的U-Convolutional-LSTM(长短期记忆)神经网络,设计了一种特殊的体系结构,可从连续的环境参数中提取关键的空间和时间特征,以指示即将来临的野火。环境和气象因素被纳入数据库,并分类为主要指标和落后指标,分别与野火构想和传播的风险相关。此外,地质数据还用于提供更好的野火风险评估。这种新颖的时空神经网络使用传统的卷积神经网络实现了> 97%的精度,而左右的卷积神经网络则达到了约76%,成功地预测了2018年2018年最具破坏性的野火,提前5-14天提前5-14天。最后,提出了一种个性化的预警系统,该警告系统针对有感觉障碍或呼吸系统加剧条件的人量身定制。该技术将使消防部门在袭击之前预测和防止野火,并为处于危险中的个人提供早期警告以更好地准备,从而挽救生命并减少经济损失。
translated by 谷歌翻译